首页> 外文OA文献 >Visual Saliency Model using SIFT and Comparison of Learning Approaches
【2h】

Visual Saliency Model using SIFT and Comparison of Learning Approaches

机译:使用sIFT的视觉显着性模型和学习方法的比较

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

Humans' ability to detect and locate salient objects on images is remarkablyfast and successful. Performing this process by using eye tracking equipment isexpensive and cannot be easily applied, and computer modeling of this humanbehavior is still a problem to be solved. In our study, one of the largestpublic eye-tracking databases which has fixation points of 15 observers on 1003images is used. In addition to low, medium and high-level features which havebeen used in previous studies, SIFT features extracted from the images are usedto improve the classification accuracy of the models. A second contribution ofthis paper is the comparison and statistical analysis of different machinelearning methods that can be used to train our model. As a result, a bestfeature set and learning model to predict where humans look at images, isdetermined.
机译:人类检测并定位图像上显着物体的能力非常快速且成功。通过使用眼睛跟踪设备来执行该过程是昂贵的并且不能容易地应用,并且这种人类行为的计算机建模仍然是要解决的问题。在我们的研究中,使用了最大的公众眼动数据库之一,在1003张图像上有15个观察者的注视点。除了先前研究中使用的低,中和高级特征外,从图像中提取的SIFT特征还用于提高模型的分类精度。本文的第二个贡献是可以用来训练模型的不同机器学习方法的比较和统计分析。结果,确定了用于预测人类在哪里观看图像的最佳功能集和学习模型。

著录项

  • 作者

    Yalic, Hamdi Yalin;

  • 作者单位
  • 年度 2014
  • 总页数
  • 原文格式 PDF
  • 正文语种
  • 中图分类

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号